查看原文
其他

数据分析之信息掘金!

酷酷说钱 酷酷说钱 2023-02-17
在互联网上赚钱,赚的是信息差,我想大家应该都听过这句话。但很多人其实并没有重视到信息的重要性更别说数据分析了。


数据分析有很广阔的用途,大到行业报告的分析,小到写作技巧的运用。


举一些例子。


做头条如何写爆款标题?


我们只要找200篇相关领域的爆款文章标题,然后进行分析拆解,就可以总结出一些方法。


做淘宝如何选品?


对淘宝某个类目,或者多个类目产品的价格、指数、销量等进行分析,清洗,就可以找到竞争小的产品。


做微商如何加精准粉丝?


采集相关网站的用户信息,筛选后添加。


再举个例子。


我在知乎见到个大v,在短时间内积累上万粉丝,他有个技巧,专门找“有哪些………?”这种或者类似这种格式的问题回答。


然后把这个问题下前20或者50的答案,做个统计,然后在做个数据分析,整理成一个答案,这个答案就是个优质答案。


在比如,有人用爬虫抓取鹿晗微博的评论,然后做个数据分析,然后得出一个结论,整理成文章,也能成为爆文。


这个看似高大上的数据采集分析,对运营人员、自媒体人、电商人等都是有非常大的帮助。


今天我们来分享一个简单的数据抓取工具——web scraper


这是一款数据采集的浏览器插件。


插件的获取方式:在公众号对话框回复“web”获取。


然后我们来讲下这个插件如何使用。


一、安装


获取到web scraper之后,我们还需要chrome 浏览器,可以是360极速浏览器,或者谷歌浏览器。


然后在浏览器 点击 工具——管理扩展。


把web scraper拖进来,添加。



这样我们就搭建好了一个无需写代码就可以采集数据的环境。


二、采集知乎的文章。


比如现在我想采集某个知乎大v的文章然后进行分析。


打开大v的知乎主页,单击鼠标右键——审查元素。



我们就可以看到web scraper的按钮。


抓取的步骤是这样的:


1、打开 web scraper


上面我们已经打开。


2、创建sitemap


采集多个网站,可创建多个sitemap。


3、设置采集规则。


这一步是最重要的,所有网址的采集步骤都一样,唯独采集规则不一样。


规则列表是这样的


需要注意的是第3个 selector,我们点击 select


然后去点击大v文章的标题,点两个,标题变为红色。



然后我们会发现后面的标题都变为了红色。



然后点 Done selecting。




这样规则设置好,保存就可以了。


4、启动抓取程序。


抓取时间间隔,可以根据自己的网速设置。


抓取结束后点击 refresh


这样我们就把文章全部抓取了下来。


5、最后一步是导出。



可以导出成为csv文件,用execl打开。


然后在进行分析。



这就是web scraper的简单的数据采集的教程。


另外web scraper 可以淘宝、58同城、微博、豆瓣等网站的数据,对于不会编程的人来说,入门非常容易,所以推荐给大家,希望对大家有帮助。


有粉丝被骗了一万多!
打造短视频ip,直播带货首选快手!
给大家介绍一位靠谱的大咖!
我想我是最傻逼的"大佬"了!
百万账号生意:单点突破,盘活全局!
淘宝客从0到月入过万!可放大!

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存